全文获取类型
收费全文 | 2285篇 |
免费 | 350篇 |
国内免费 | 581篇 |
专业分类
测绘学 | 388篇 |
大气科学 | 212篇 |
地球物理 | 478篇 |
地质学 | 1477篇 |
海洋学 | 161篇 |
天文学 | 42篇 |
综合类 | 285篇 |
自然地理 | 173篇 |
出版年
2024年 | 2篇 |
2023年 | 45篇 |
2022年 | 77篇 |
2021年 | 97篇 |
2020年 | 103篇 |
2019年 | 84篇 |
2018年 | 69篇 |
2017年 | 96篇 |
2016年 | 115篇 |
2015年 | 110篇 |
2014年 | 138篇 |
2013年 | 160篇 |
2012年 | 133篇 |
2011年 | 120篇 |
2010年 | 107篇 |
2009年 | 125篇 |
2008年 | 148篇 |
2007年 | 117篇 |
2006年 | 117篇 |
2005年 | 137篇 |
2004年 | 106篇 |
2003年 | 98篇 |
2002年 | 87篇 |
2001年 | 83篇 |
2000年 | 79篇 |
1999年 | 100篇 |
1998年 | 89篇 |
1997年 | 65篇 |
1996年 | 68篇 |
1995年 | 66篇 |
1994年 | 54篇 |
1993年 | 50篇 |
1992年 | 44篇 |
1991年 | 32篇 |
1990年 | 31篇 |
1989年 | 14篇 |
1988年 | 11篇 |
1987年 | 11篇 |
1986年 | 2篇 |
1985年 | 8篇 |
1984年 | 2篇 |
1983年 | 3篇 |
1982年 | 3篇 |
1980年 | 1篇 |
1979年 | 2篇 |
1976年 | 5篇 |
1973年 | 1篇 |
1971年 | 1篇 |
排序方式: 共有3216条查询结果,搜索用时 15 毫秒
991.
小波变换在相对海平面变化研究中的应用 总被引:5,自引:5,他引:0
根据广东沿岸14个验潮站的月均序列,应用小波分析方法将其进行时域-频域分解,分析了近40多年来月平均潮位序列的多层次尺度结构,进而研究相对海平面的周期变化和趋势变化。结果表明,用小波变换研究相对海平面在时域-频域中的周期分布及变化时,能较好地揭示周期变化的局部特征;广东沿岸相对海平面变化包含着0.5年、1年、2~4年、10~11年及18~20年左右等周期变化,且周期变化在时间域中具有明显的局部化特征;据实测资料计算,周期变化对海平面的趋势变化影响明显,未消除周期变化的趋势分析结果偏大,用小波变换有效地消除周期变化后得出粤西及珠江口地区沿岸相对海平面变化率,一般而言,广东沿岸海平面呈上升趋势,上升幅度约为0.36~1.2 mm/a。 相似文献
992.
993.
泥河湾盆地东部出露一套厚近百米的以湖相为主的地层.我们测量了洞沟剖面的粒度和磁化率.通过磁化率记录的对比, 我们可以将前人确定的古地磁界线转移到我们的深度坐标上来, 并建立了初步的时间标尺.样品中粒径在20~50μm之间的颗粒含量时间序列可以与ETP曲线对比, 即低含量对应高ETP值.这样的对比意味着在北半球夏季太阳辐射量相对增加的时期, 进入泥河湾盆地沉积物中的风尘物质减少了.这与已知的北方风尘的演化历史是吻合的, 所以我们认为粒度(20~50μm) 含量是泥河湾盆地沉积物中比较可靠的古气候变化的替代性指标.对于沉积速率相对高的时段, 即 > 780ka的地层, 我们尝试用轨道调谐的方法建立了高分辨率的时间标尺.新的粒度(20~50μm) 含量时间序列滤波获得的20ka和41ka的周期成分与岁差及地轴倾斜度的理论值可以重合.这显示洞沟剖面的粒度(20~50μm) 含量记录可以作为轨道调谐的气候曲线. 相似文献
994.
软土路基沉降实时建模动态预测 总被引:6,自引:2,他引:4
在路基填筑施工过程中,用多项式与时间序列AR组合模型预测其沉降变形发展。根据沉降观测值,采用统计分析方法识别和建立多项式预测模型,预测在某时期沉降趋势值;用平稳时间序列分析方法建立随机部分模型,并预测沉降随机部分值,二者之和即为某时期沉降预测值。随着新观测数据的不断加入,及时修改预测模型参数值,达到实时预测之目的。工程实例研究表明:组合模型预测值明显优于单一趋势模型预测值。组合模型一步预测误差绝对值大多数情况下小于5 mm。预测步数越多,预测误差则越大。 相似文献
995.
996.
997.
The rapid development of data mining provides a new method for water resource management, hydrology and hydroinformatics research. In the paper, based on data mining theory and technology, we analyse hydrological daily discharge time series of the Shaligunlanke Station in the Tarim River Basin in China from the year 1961 to 2000. Firstly, according to the four monthly statistics, namely mean monthly discharge, monthly maximum discharge, monthly amplitude and monthly standard deviation, K‐mean clustering was used to segment the annual process of the daily discharge. The clustering result showed that the annual process of the daily discharge can be divided into five segments: snowmelt period I (April), snowmelt period II (May), rainfall period I (June–August), rainfall period II (September) and dry period (October–December and January–March). Secondly, dynamic time warping (DTW), which is a different distance metric method from the traditional Euclidian distance metric, was used to look for similarities in the discharge process. On the basis of the similarity matrix, the similar discharge processes can be mined in each period. Thirdly, agglomerative hierarchical clustering was used to cluster and discover the discharge patterns in terms of the autoregressive model. It was found that the discharge had a close relationship with the temperature and the precipitation, and the discharge processes were more similar under the same climatic condition. Our study shows that data mining is a feasible and efficient approach to discover the hidden information in the historical hydrological data and mining the implicative laws under the hydrological process. Copyright © 2010 John Wiley & Sons, Ltd. 相似文献
998.
The goal of this study was to evaluate whether harmonic regression coefficients derived using all available cloud-free observations in a given Landsat pixel for a three-year period can be used to estimate tree canopy cover (TCC), and whether models developed using harmonic regression coefficients as predictor variables are better than models developed using median composite predictor variables, the previous operational standard for the National Land Cover Database (NLCD). The two study areas in the conterminous USA were as follows: West (Oregon), bounded by Landsat Worldwide Reference System 2 (WRS-2) paths/rows 43/30, 44/30, and 45/30; and South (Georgia/South Carolina), bounded by WRS-2 paths/rows 16/37, 17/37, and 18/37. Plot-specific tree canopy cover (the response variable) was collected by experienced interpreters using a dot grid overlaid on 1 m spatial resolution National Agricultural Imagery Program (NAIP) images at two different times per region, circa 2010 and circa 2014. Random forest model comparisons (using 500 independent model runs for each comparison) revealed the following (1) harmonic regression coefficients (one harmonic) are better predictors for every time/region of TCC than median composite focal means and standard deviations (across times/regions, mean increase in pseudo R2 of 6.7% and mean decrease in RMSE of 1.7% TCC) and (2) harmonic regression coefficients (one harmonic, from NDVI, SWIR1, and SWIR2), when added to the full suite of median composite and terrain variables used for the NLCD 2011 product, improve the quality of TCC models for every time/region (mean increase in pseudo R2 of 3.6% and mean decrease in RMSE of 1.0% TCC). The harmonic regression NDVI constant was always one of the top four most important predictors across times/regions, and is more correlated with TCC than the NDVI median composite focal mean. Eigen analysis revealed that there is little to no additional information in the full suite of predictor variables (47 bands) when compared to the harmonic regression coefficients alone (using NDVI, SWIR1, and SWIR2; 9 bands), a finding echoed by both model fit statistics and the resulting maps. We conclude that harmonic regression coefficients derived from Landsat (or, by extension, other comparable earth resource satellite data) can be used to map TCC, either alone or in combination with other TCC-related variables. 相似文献
999.
1000.
缺失样本的存在会造成GPS时间序列速度估计的不确定性,从而影响GPS时间序列的应用。针对该问题本文提出一种基于高斯模型的样本缺失GPS时间序列重构方法,首先利用高斯概率密度函数对GPS时间序列的先验分布进行建模,在此基础上构建全概率贝叶斯统计模型,采用期望最大(Expectation Maximization,EM)算法对模型参数(隐变量)进行迭代更新并计算其最大似然估计值,最终完成信号重构。分别对随机缺失和分段连续缺失两种情况进行实验分析,结果表明所提方法相对于传统插值方法可以获得更好的重构性能。 相似文献